全中文自然語言處理:Pre-Trained Model方法最新實戰

NT $ 792


★★★★★【全中文自然語言處理】★★★★★

還在對huggingface上的預訓練模型(bert-base)等都是針對歐美語系感到困擾嗎?

本書就是為中文世界讀者專屬打造的,讓你一窺中文模型的自然語言處理!

自然語言處理(NLP)號稱「人工智慧皇冠上的珍珠」,是AI世界中最先進也是應用最廣的領域。從早期的知識模型,到中間的統計模型,一直到最新的神經網路模型,早已服務於你所看到的任何大型系統,包括Google的關鍵字排名、Google翻譯、購物網站推薦系統、Siri/OKGoogle等,都是NLP產出的精華。如果你還以為CNN、GAN等圖型處理的AI架構很有趣,換到NLP領域中,你會發現更多驚奇!

本書從預訓練模型的角度對理性主義和經驗主義這兩次重要的發展進行了系統性的論述,能夠幫助讀者深入了解這些技術背後的原理、相互之間的聯繫以及潛在的局限性,對於當前學術界和工業界的相關研究與應用都具有重要的價值。本書由中文自然語言處理的首席單位「哈爾濱工業大學」完成,其在Huggningface的Transformer模型上有貢獻多個純中文模型,由這些專家親著的內容,絕對是你想了解中文NLP專業的第一選擇。

本書特色
◎不只英文,還有中文模型的自然語言處理
以往的自然語言處理專書多以處理歐美語系為主,令使用中文為母語的我們甚感遺憾,如今,本書就是你第一本可深入了解「中文模型的自然語言處理」最棒的書籍!

◎中文自然語言處理的首席單位專家親著
本書由中文自然語言處理的首席單位「哈爾濱工業大學」完成,其在Huggningface的Transformer模型上有貢獻多個純中文模型,由這些專家親著的內容,絕對是你想了解中文NLP專業的第一選擇。

◎精美圖表、專業講解
本書內含作者精心製作的圖表,有助於讀者理順思緒、更好地學習自然語言處理的奧妙。

本書技術重點
✪詞的獨熱表示、詞的分散式表示、文字的詞袋表示
✪文字分類問題、結構預測問題、序列到序列問題
✪NLTK工具集、LTP工具集、大規模預訓練資料
✪多層感知器模型、卷積神經網路、循環神經網路、注意力模型
✪情感分類實戰、詞性標注實戰
✪Word2vec詞向量、GloVe詞向量
✪靜態詞向量預訓練模型、動態詞向量預訓練模型
✪預訓練語言模型、GPT、BERT
✪模型蒸餾與壓縮、DistilBERT、TinyBERT、MobileBERT、TextBrewer
✪生成模型、BART、UniLM、T5、GPT-3、可控文字生成
✪多語言融合、多媒體融合、異質知識融合
✪VideoBERT、VL-BERT、DALL•E、ALIGN


HUGGINGFACE 訓練 GOOGLE NLP TRANSFORMER AI 應用 模型 向量 中文 文字 MODEL